인공지능기초_01_AI의 정의와 역사
1. 인공지능의 계층적 정의
인공지능 기술은 포함 관계에 따라 다음과 같이 구분된다.
1.1. 인공지능(Artificial Intelligence)
인간의 지적 능력과 기술을 프로그래밍을 통해 구현하는 기술의 총칭이다. 자율주행(Autonomous Driving), 챗봇(Chatbot) 등 고도화된 기술뿐만 아니라, 단순한 규칙 기반의 자동화 시스템(예: 주차 차단기, 공장 불량 선별)도 광의의 인공지능에 포함된다.
1.2. 머신러닝(Machine Learning)
데이터를 기반으로 알고리즘이나 모델이 학습하여 특정 문제를 해결하는 기술이다. 개발자가 모든 규칙을 하드코딩(Hard Coding)하는 것이 아니라, 대량의 데이터를 통해 모델이 스스로 패턴을 학습하고 추론하는 것이 특징이다.
1.3. 딥러닝(Deep Learning)
머신러닝의 하위 분야로, 인공신경망(Artificial Neural Network)을 활용하여 데이터를 학습하는 알고리즘이다. 초기에는 인공신경망(ANN)으로 불렸으나, 마케팅 및 브랜드 이미지 쇄신 차원에서 'Deep Learning'으로 재명명되었다.
2. 인공지능의 역사와 발전(History of AI)
2.1. 1차 AI 붐(1st Boom)과 암흑기
- 퍼셉트론(Perceptron, 1958): 프랭크 로젠블렛(Frank Rosenblatt)이 고안한 초기 인공신경망 모델. 인간의 뉴런 구조를 모방하여 입력값에 가중치(Weight)를 곱하고, 활성화 함수(Activation Function)를 통해 신호를 전달하는 구조를 제안했다.
- 한계점(Limitations): 마빈 민스키(Marvin Minsky) 교수는 퍼셉트론이 선형 분리 불가능 문제(Non-linearly Separable Problem), 대표적으로 XOR 문제를 해결할 수 없음을 수학적으로 증명했다. 이로 인해 약 10년간의 첫 번째 암흑기(AI Winter)가 도래했다.
2.2. 2차 AI 붐(2nd Boom)과 암흑기
- 다층 퍼셉트론(Multi-Layer Perceptron): 제프리 힌튼(Geoffrey Hinton) 등이 퍼셉트론을 여러 층으로 쌓아 비선형 문제를 해결했다. 특히 역전파(Backpropagation) 알고리즘을 통해 심층 신경망의 학습이 가능해졌다.
- 전문가 시스템(Expert System): 특정 분야의 전문 지식과 규칙을 컴퓨터에 입력하여 판단을 내리는 시스템(예: AI 판사, 의료 진단)이 유행했다.
- 한계점(Limitations):
- 기울기 소실(Vanishing Gradient): 신경망이 깊어질수록 역전파 과정에서 입력층(Input Layer)으로 갈수록 오차 정보가 사라져 학습이 되지 않는 현상이 발생했다.
- 전문가 시스템의 한계: 대부분의 로직이 단순한 조건문(If-Then) 덩어리로 구성되어 복잡한 현실 문제를 해결하는 데 한계가 있었다. 이에 따라 두 번째 암흑기를 맞이했다.
2.3. 3차 AI 붐(3rd Boom)과 현재
딥러닝(Deep Learning)이라는 용어의 등장과 함께 현재까지 이어지는 부흥기이다. 다음 4가지 요소가 성장을 견인했다.
- 컴퓨팅 파워(Computing Power): GPU 성능의 비약적 발전과 저장 장치 용량 증가.
- 알고리즘 개선(Algorithm Improvement): 기울기 소실 문제를 완화하는 새로운 활성화 함수(ReLU 등) 및 초기화 기법 등장.
- 브랜딩(Branding): '인공신경망'이라는 부정적 뉘앙스를 탈피하기 위해 'Deep Learning'이라는 용어 도입.
- 빅데이터(Big Data): 인터넷 활성화로 인한 대량의 학습 데이터 확보.
3. 이미지넷(ImageNet)과 CNN의 발전
페이페이 리(Fei-Fei Li) 교수가 주도한 이미지넷(ImageNet) 프로젝트는 2만 2천 개의 클래스와 1,500만 장 이상의 이미지를 구축하여 AI 발전의 토대를 마련했다. 이를 기반으로 ILSVRC(ImageNet Large Scale Visual Recognition Challenge) 대회가 개최되었다.
- AlexNet (2012): 제프리 힌튼 교수 팀이 개발. 깊은 신경망(Neural Network)을 사용하여 오답률을 기존 28%에서 16.6%로 획기적으로 낮췄다. 딥러닝 시대의 개막을 알린 모델이다.
- VGGNet (2014): 네트워크의 깊이(Depth)를 더 깊게 쌓아 오답률을 7.3%까지 개선했다.
- ResNet (2015): 잔차 학습(Residual Learning) 개념을 도입하여 망을 더욱 깊게 쌓으면서도 학습이 잘 되도록 구조를 개선했다. 오답률 3.57%를 기록하며 인간의 인식 능력(오답률 약 5.1%)을 초월했다.
4. 알파고(AlphaGo) 모멘텀
2016년, 구글 딥마인드(Google DeepMind)의 알파고가 이세돌 9단을 승리하며 AI의 대중적 인식을 완전히 변화시켰다. 이는 경우의 수가 무한에 가까운 바둑 영역에서도 강화학습(Reinforcement Learning)과 딥러닝을 통해 인간을 초월할 수 있음을 증명한 사례이다.